手术工作流程预期可以预测进行哪些步骤或接下来使用哪些工具,这是计算机辅助干预系统的重要组成部分,例如机器人手术中的工作流程推理。但是,当前的方法仅限于它们在工具之间关系的表达能力不足。因此,我们提出了一个图形表示学习框架,以全面表示手术工作流期望问题中的仪器运动。在我们提出的图表表示中,我们将仪器的边界框信息映射到连续帧中的图节点,并构建框架间/互动图形的图形边缘,以表示随着时间的推移仪器的轨迹和相互作用。这种设计增强了我们网络对手术仪器的空间和时间模式及其相互作用的建模能力。此外,我们设计了一种多型胜利学习策略,以平衡对各种视野无动于衷的预期任务的理解,从而大大改善了各种视野的预期模型性能。 cholec80数据集的实验证明了我们提出的方法的性能可以超过基于较富主链的最新方法,尤其是在仪器预期中(1.27 v.s. 1.48 for Inmae; 1.48 v.s. 2.68 for Emae)。据我们所知,我们是第一个将时空图表引入外科工作流程预期的人。
translated by 谷歌翻译